Telegram Group & Telegram Channel
Закон о дипфейках в России

Современные информационные технологии способны поражать воображение. Уже известны случаи "возрождения" покинувших нас актеров с помощью искусственного интеллекта, случаи омолаживания актеров в возрасте, а также другие проявления синтеза изображения человека и его голоса с помощью технологии, именуемой "дипфейк". В конце прошлого года мы рассказывали о ситуации, когда к президенту России Путину В.В. обратился с вопросом его же дипфейк-клон: тогда Владимир Владимирович заявил о намерениях возглавить развитие технологий искусственного интеллекта (далее — ИИ).

Немаловажной ступеней развития ИИ-технологий является законодательное регулирование их применения. 01.04.2024 стало известно, что этот вопрос на днях обсуждался в Госдуме России. Сейчас ведется разработка законопроекта, призванного урегулировать понятие "дипфейк" в российском правовом поле, рассказали в Госдуме.

На текущий момент возникающие споры разрешаются нормами авторского права, если речь о кино или рекламе, но одной из целей, выраженных в законе станет этический аспект использования вышеописанных технологий.

Особую обеспокоенность использованием дипфейков в киноискусстве выразила глава Комитета Госдумы по культуре Ямпольская Е.А., упомянув также об идее не выдавать прокатное удостоверение (ПУ) фильмам, в которых ключевые роли отданы дипфейкам, ведь по её мнению "дипфейки как явление могут привести к тому, что ныне живущие таланты окажутся не востребованы".

Более позитивную и компетентную позицию озвучил продюсер и сценарист Золотарев А.Х. Согласно его заявлению, технически для продюсеров дороже "воскресить" покойного именитого актера с помощью ИИ-технологий вместо того, чтобы подобрать реального профессионала актерского ремесла. Сценарист также отметил, что со временем применение технологии станет более бюджетным.

В качестве исключительно негативной стороны дипфейков можно выделить многократное увеличение рисков использования данной технологии, как способа мошенничества и иных видов преступлений. Согласно исследованию за 2023 год число совершенных преступлений с помощью технологии дипфейк в мире выросло на 700%.

В одном из следующих постов мы подробнее раскроем тему мошенничества с использованием ИИ-технологий, а пока рекомендуем ознакомиться с действующими правовыми механизмами, которые помогут защитить свои права от злоупотреблений с использованием дипфейков.

Независимо от того, к каким положениям будущего закона о дипфейках придёт законодатель, заинтересованные в безопасности своей индивидуальности граждане уже сейчас должны знать, что в России привлекать к ответственности за неправомерное использование дипфейков можно в рамках:

📌 ст.ст. 158, 159 или 163 УК РФ в случае совершения хищения имущества потерпевшего путем кражи, мошенничества, вымогательства с использованием технологии дипфейк
📌 ст. 152.1 ГК РФ о незаконном использовании изображения гражданина;
📌 ст. 1301 ГК РФ в случае нарушения авторских прав.

#дела_цифровые

@forensic_lawyer



tg-me.com/forensic_lawyer_news/1366
Create:
Last Update:

Закон о дипфейках в России

Современные информационные технологии способны поражать воображение. Уже известны случаи "возрождения" покинувших нас актеров с помощью искусственного интеллекта, случаи омолаживания актеров в возрасте, а также другие проявления синтеза изображения человека и его голоса с помощью технологии, именуемой "дипфейк". В конце прошлого года мы рассказывали о ситуации, когда к президенту России Путину В.В. обратился с вопросом его же дипфейк-клон: тогда Владимир Владимирович заявил о намерениях возглавить развитие технологий искусственного интеллекта (далее — ИИ).

Немаловажной ступеней развития ИИ-технологий является законодательное регулирование их применения. 01.04.2024 стало известно, что этот вопрос на днях обсуждался в Госдуме России. Сейчас ведется разработка законопроекта, призванного урегулировать понятие "дипфейк" в российском правовом поле, рассказали в Госдуме.

На текущий момент возникающие споры разрешаются нормами авторского права, если речь о кино или рекламе, но одной из целей, выраженных в законе станет этический аспект использования вышеописанных технологий.

Особую обеспокоенность использованием дипфейков в киноискусстве выразила глава Комитета Госдумы по культуре Ямпольская Е.А., упомянув также об идее не выдавать прокатное удостоверение (ПУ) фильмам, в которых ключевые роли отданы дипфейкам, ведь по её мнению "дипфейки как явление могут привести к тому, что ныне живущие таланты окажутся не востребованы".

Более позитивную и компетентную позицию озвучил продюсер и сценарист Золотарев А.Х. Согласно его заявлению, технически для продюсеров дороже "воскресить" покойного именитого актера с помощью ИИ-технологий вместо того, чтобы подобрать реального профессионала актерского ремесла. Сценарист также отметил, что со временем применение технологии станет более бюджетным.

В качестве исключительно негативной стороны дипфейков можно выделить многократное увеличение рисков использования данной технологии, как способа мошенничества и иных видов преступлений. Согласно исследованию за 2023 год число совершенных преступлений с помощью технологии дипфейк в мире выросло на 700%.

В одном из следующих постов мы подробнее раскроем тему мошенничества с использованием ИИ-технологий, а пока рекомендуем ознакомиться с действующими правовыми механизмами, которые помогут защитить свои права от злоупотреблений с использованием дипфейков.

Независимо от того, к каким положениям будущего закона о дипфейках придёт законодатель, заинтересованные в безопасности своей индивидуальности граждане уже сейчас должны знать, что в России привлекать к ответственности за неправомерное использование дипфейков можно в рамках:

📌 ст.ст. 158, 159 или 163 УК РФ в случае совершения хищения имущества потерпевшего путем кражи, мошенничества, вымогательства с использованием технологии дипфейк
📌 ст. 152.1 ГК РФ о незаконном использовании изображения гражданина;
📌 ст. 1301 ГК РФ в случае нарушения авторских прав.

#дела_цифровые

@forensic_lawyer

BY Будни форензик — адвоката


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 280

Share with your friend now:
tg-me.com/forensic_lawyer_news/1366

View MORE
Open in Telegram


Будни форензик — адвоката Telegram | DID YOU KNOW?

Date: |

Newly uncovered hack campaign in Telegram

The campaign, which security firm Check Point has named Rampant Kitten, comprises two main components, one for Windows and the other for Android. Rampant Kitten’s objective is to steal Telegram messages, passwords, and two-factor authentication codes sent by SMS and then also take screenshots and record sounds within earshot of an infected phone, the researchers said in a post published on Friday.

In many cases, the content resembled that of the marketplaces found on the dark web, a group of hidden websites that are popular among hackers and accessed using specific anonymising software.“We have recently been witnessing a 100 per cent-plus rise in Telegram usage by cybercriminals,” said Tal Samra, cyber threat analyst at Cyberint.The rise in nefarious activity comes as users flocked to the encrypted chat app earlier this year after changes to the privacy policy of Facebook-owned rival WhatsApp prompted many to seek out alternatives.Будни форензик — адвоката from it


Telegram Будни форензик — адвоката
FROM USA